Loading...
机构名称:
¥ 2.0

随着自主系统越来越多地部署在开放和不确定的环境中,人们对值得信赖的世界模型的需求越来越多,这些模型可以可靠地预测未来的高维度。世界模型中博学的潜在表示缺乏直接映射到有意义的物理数量和动态,从而限制了其在下游计划,控制和安全验证中的效用和解释性。In this paper, we argue for a fundamental shift from physically informed to physically interpretable world models — and crystallize four principles that leverage symbolic knowledge to achieve these ends: (1) structuring latent spaces according to the physical intent of variables, (2) learning aligned invariant and equivariant representations of the physical world, (3) adapting training to the varied granularity of supervision signals, and (4) partitioning生成输出以支持可伸缩性和可验证性。我们在实验上证明了每个原理在两个基准上的价值。本文打开了一些有趣的研究方向,以实现和利用世界模型中的全部物理解释性。关键字:世界模型,代表性学习,神经符号AI,可信赖的自主源代码:https://github.com/trustworthy-eentine-workineered-autonomy-lab/piwm-lab/piwm-principles

arxiv:2503.02143v1 [cs.lg] 2025年3月4日

arxiv:2503.02143v1 [cs.lg] 2025年3月4日PDF文件第1页

arxiv:2503.02143v1 [cs.lg] 2025年3月4日PDF文件第2页

arxiv:2503.02143v1 [cs.lg] 2025年3月4日PDF文件第3页

arxiv:2503.02143v1 [cs.lg] 2025年3月4日PDF文件第4页

arxiv:2503.02143v1 [cs.lg] 2025年3月4日PDF文件第5页

相关文件推荐

2025 年
¥1.0
2025 年
¥4.0
2024 年
¥1.0
2025 年
¥4.0
2025 年
¥3.0
2025 年
¥1.0
2024 年
¥1.0